"Siempre logramos secuestrar la IA": el futuro control parental de ChatGPT genera escepticismo

ChatGPT incorporará controles parentales a finales de mes. Su empresa matriz, OpenAI, lo anunció en un comunicado de prensa el martes. En Francia, más de la mitad de los jóvenes de entre 15 y 24 años ya han utilizado ChatGPT, según un estudio de Médiamétrie publicado en diciembre pasado.
¿Por qué? Porque esta inteligencia artificial es objeto de una demanda: una familia estadounidense la acusa de haber incitado al suicidio de su hijo, a quien le confió su desdicha. Por ello, ChatGPT intenta responder ofreciendo a los padres control sobre las comunicaciones de sus hijos.
La empresa estadounidense permitirá a los padres vincular sus cuentas con las de sus hijos. Este derecho de supervisión les otorgará control sobre la configuración, pero también les avisará directamente en caso de angustia grave por parte de sus hijos. Si, por ejemplo, su hijo expresa un profundo malestar al hacer preguntas en ChatGPT, se notificará a los padres de inmediato.
Pero ¿cómo podemos detectar estas preguntas eficazmente? Esta es la pregunta que plantea Magali Germond, especialista en ética digital: «Tengan cuidado, porque la debilidad de la IA conversacional es que siempre podemos abusar de ella. Siempre hay otra forma de plantear la pregunta, una forma de recuperar información mediante formulaciones distorsionadas. Es un primer paso, es mejor que nada, pero no es suficiente. Mantengámonos alerta», declaró a RMC .
El anuncio del martes "es realmente el mínimo indispensable", declaró a la AFP Melodi Dincer, abogada que llevó el caso ante los tribunales junto con los padres y una asociación.

OpenAI afirmó que está tomando medidas adicionales, previstas para los próximos 120 días. La compañía redirigirá ciertas "conversaciones sensibles" a modelos de razonamiento más avanzados, como el pensamiento GPT-5. "Los modelos de razonamiento siguen y aplican las directrices de seguridad de forma más sistemática", declaró el grupo estadounidense.
RMC